Telegram Group & Telegram Channel
Глубокое обучение, как зеркало сложных систем

«Никто не понимает, как работает глубокое обучение / нейронные сети / большие языковые модели» — слышали эту фразу? не смущает ли она вас? В нескольких постах разбираемся, что известно, а что нет.

В жизни нас окружает много сложных систем, поведение которых в будущем не может быть точно смоделировано (computationally irreducible complexity)  — наш мозг, иммунная система, финансовые рынки, климатические и экологические системы, социальные группы и многое другое. Иногда не хватает информации о начальных условиях, иногда для моделирования требуются невероятные вычислительные мощности, а иногда это даже теоретически невозможно (хаос, привет).

В отсутствии понимания внутренних правил системы, бывают накоплены наблюдения за ней — например, анамнез людей с травмами разных частей головы, показания погоды за несколько лет, журналы родильных домов по всему региону или сборник медицинских учебников. Вместе с наблюдениями иногда сформирована интуиция — пациенты с повреждениями левой фронтальной части мозга чаще других теряют способность говорить, вокруг Рождества особенно морозно, больше всего детей рождается летом, а подорожник быстрее заживляет раны. Корреляции не всегда верные, но достаточно устойчивые чтобы закрепиться как «житейская мудрость».

Большие нейронные сети (neural networks, NN) — сложные системы, состоящие из десятков миллиардов нейронов и выполняющие сотни миллионов операций с числами в секунду. В момент создания это полностью детерминированные объекты, магия начинается только после их “обучения”, во время которого сети показывают примеры другой сложной системы, например, текста. Если данных много (а chatGPT обучен на корпусе из ~ста миллиардов страниц текста), они высокого качества (литературы и научных статей больше, чем твиттера), и достаточно разнообразны (представлены разные языки, национальности, гендеры, политические взгляды), глядя на них нейронная сеть «обучится» хорошо и скопирует внутренние взаимосвязи построив свою собственную интуицию.

После обучения вся информация или “знания” NN распределённо хранятся в этих миллиардах нейронов, и хотя система не перестает быть строго детерминированной (каждое из чисел известно точно), из-за огромного количества их интерпретация сильно усложняется и становится похожа на исследование нашего мозга. Он тоже состоит из десятков миллиардов нейронов, правда иной природы. За всю историю развития нейронауки ученые объединили скопления нейронов в отделы, установили за какие функции они отвечают, но где именно рождается та или иная мысль в большинстве случаев неизвестно, а что такое сознание неизвестно вовсе.

В случае с текстом обучение, очевидно, работает. Современные большие языковые модели успешно построили собственные интуиции для человеческих языков. Является ли это “пониманием” написанного, и можно ли на таких механизмах построить “сознание”, это отдельный разговор, который в основном сводится к определению терминов. Но совершенно точно это является пониманием математической закономерности языка, скрытой от нашей человеческой интуиции. Наш мозг выполняет операции над образами а не числами, но удивительным образом эти два подхода приводят к очень близким результатам.

Вот и получается что одно сложное, которое вы контролируете полностью, имитирует поведение другого сложного, за которым наблюдало достаточно много раз. И несмотря на очень поверхностные наше представления о том, как именно это происходит, это сложное решает прикладные задачи и усложняется дальше. С другой стороны, человек довольно долго и успешно существовал совсем не понимая, как работает собственный мозг. Это должно обнадеживать

1. Визуальная демонстрация того как нейронные сети учатся
2. Что известно об устройстве GPT-4

#AI #DL #LLM #complexity



tg-me.com/levels_of_abstraction/19
Create:
Last Update:

Глубокое обучение, как зеркало сложных систем

«Никто не понимает, как работает глубокое обучение / нейронные сети / большие языковые модели» — слышали эту фразу? не смущает ли она вас? В нескольких постах разбираемся, что известно, а что нет.

В жизни нас окружает много сложных систем, поведение которых в будущем не может быть точно смоделировано (computationally irreducible complexity)  — наш мозг, иммунная система, финансовые рынки, климатические и экологические системы, социальные группы и многое другое. Иногда не хватает информации о начальных условиях, иногда для моделирования требуются невероятные вычислительные мощности, а иногда это даже теоретически невозможно (хаос, привет).

В отсутствии понимания внутренних правил системы, бывают накоплены наблюдения за ней — например, анамнез людей с травмами разных частей головы, показания погоды за несколько лет, журналы родильных домов по всему региону или сборник медицинских учебников. Вместе с наблюдениями иногда сформирована интуиция — пациенты с повреждениями левой фронтальной части мозга чаще других теряют способность говорить, вокруг Рождества особенно морозно, больше всего детей рождается летом, а подорожник быстрее заживляет раны. Корреляции не всегда верные, но достаточно устойчивые чтобы закрепиться как «житейская мудрость».

Большие нейронные сети (neural networks, NN) — сложные системы, состоящие из десятков миллиардов нейронов и выполняющие сотни миллионов операций с числами в секунду. В момент создания это полностью детерминированные объекты, магия начинается только после их “обучения”, во время которого сети показывают примеры другой сложной системы, например, текста. Если данных много (а chatGPT обучен на корпусе из ~ста миллиардов страниц текста), они высокого качества (литературы и научных статей больше, чем твиттера), и достаточно разнообразны (представлены разные языки, национальности, гендеры, политические взгляды), глядя на них нейронная сеть «обучится» хорошо и скопирует внутренние взаимосвязи построив свою собственную интуицию.

После обучения вся информация или “знания” NN распределённо хранятся в этих миллиардах нейронов, и хотя система не перестает быть строго детерминированной (каждое из чисел известно точно), из-за огромного количества их интерпретация сильно усложняется и становится похожа на исследование нашего мозга. Он тоже состоит из десятков миллиардов нейронов, правда иной природы. За всю историю развития нейронауки ученые объединили скопления нейронов в отделы, установили за какие функции они отвечают, но где именно рождается та или иная мысль в большинстве случаев неизвестно, а что такое сознание неизвестно вовсе.

В случае с текстом обучение, очевидно, работает. Современные большие языковые модели успешно построили собственные интуиции для человеческих языков. Является ли это “пониманием” написанного, и можно ли на таких механизмах построить “сознание”, это отдельный разговор, который в основном сводится к определению терминов. Но совершенно точно это является пониманием математической закономерности языка, скрытой от нашей человеческой интуиции. Наш мозг выполняет операции над образами а не числами, но удивительным образом эти два подхода приводят к очень близким результатам.

Вот и получается что одно сложное, которое вы контролируете полностью, имитирует поведение другого сложного, за которым наблюдало достаточно много раз. И несмотря на очень поверхностные наше представления о том, как именно это происходит, это сложное решает прикладные задачи и усложняется дальше. С другой стороны, человек довольно долго и успешно существовал совсем не понимая, как работает собственный мозг. Это должно обнадеживать

1. Визуальная демонстрация того как нейронные сети учатся
2. Что известно об устройстве GPT-4

#AI #DL #LLM #complexity

BY уровни абстракции


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/levels_of_abstraction/19

View MORE
Open in Telegram


LEVELS_OF_ABSTRACTION Telegram Group Telegram | DID YOU KNOW?

Date: |

The STAR Market, as is implied by the name, is heavily geared toward smaller innovative tech companies, in particular those engaged in strategically important fields, such as biopharmaceuticals, 5G technology, semiconductors, and new energy. The STAR Market currently has 340 listed securities. The STAR Market is seen as important for China’s high-tech and emerging industries, providing a space for smaller companies to raise capital in China. This is especially significant for technology companies that may be viewed with suspicion on overseas stock exchanges.

Export WhatsApp stickers to Telegram on Android

From the Files app, scroll down to Internal storage, and tap on WhatsApp. Once you’re there, go to Media and then WhatsApp Stickers. Don’t be surprised if you find a large number of files in that folder—it holds your personal collection of stickers and every one you’ve ever received. Even the bad ones.Tap the three dots in the top right corner of your screen to Select all. If you want to trim the fat and grab only the best of the best, this is the perfect time to do so: choose the ones you want to export by long-pressing one file to activate selection mode, and then tapping on the rest. Once you’re done, hit the Share button (that “less than”-like symbol at the top of your screen). If you have a big collection—more than 500 stickers, for example—it’s possible that nothing will happen when you tap the Share button. Be patient—your phone’s just struggling with a heavy load.On the menu that pops from the bottom of the screen, choose Telegram, and then select the chat named Saved messages. This is a chat only you can see, and it will serve as your sticker bank. Unlike WhatsApp, Telegram doesn’t store your favorite stickers in a quick-access reservoir right beside the typing field, but you’ll be able to snatch them out of your Saved messages chat and forward them to any of your Telegram contacts. This also means you won’t have a quick way to save incoming stickers like you did on WhatsApp, so you’ll have to forward them from one chat to the other.

LEVELS_OF_ABSTRACTION Telegram Group from ru


Telegram уровни абстракции
FROM USA